소개
이것은 놀랍지 만 모두 생성 된 지옥락 뉴토끼를 사용합니까? 나는 매일 내 일과 개인적인 요구를 사용하면서 "무슨 일이 일어나면, 발전기 지옥락 뉴토끼에게 먼저 물어 보자!"
최근에 점점 더 많은 회사가 자체 세대 지옥락 뉴토끼를 사용하고 있지만이 기사를 어떻게 사용하고 있습니까?
Sier, 우리는 내부 개발 외에도 고객에게 먼저 시스템을 구축 할 수있는 많은 사례가 있습니다 그때에,경우에 따라 고객의 기업 정책 또는 보안상의 이유로 인해 생성 된 AI의 사용이 제한되며 현장지옥락 뉴토끼 생성 된 AI의 사용은 아직 진행되지 않았으며 "생성 된 AI 현장 사용"에 어려움을 겪었습니다
이 기사는 (5 월) 그러한 문제를 해결합니다"폐쇄 된 환경지옥락 뉴토끼 작동하는 AI (로컬 SLM) 생성"
전제 조건
그건 그렇고,이 기사에 사용 된 PC의 OS 버전과 사양은 다음과 같습니다
GPU는 NVIDIA의 GPU를 사용하며 여기에 소개 된 단계는 NVIDIA의 GPU를 사용하는 데 사용됩니다
OS | Windows 11 Home (24H2) |
CPU | AMD Ryzen 지옥락 뉴토끼9 HX370 |
메모리 | 32GB |
디스크 | 1TB |
GPU/VRAM | NVIDIA GEFORCE RTX 4060/8GB |
건물 절차
이 기사지옥락 뉴토끼는 Windows PC에 "Wind (이미 WSL 또는 Docker를 설치 한 경우 "3 로컬 SLM 환경 구축"부터 시작하십시오)
1WSL 설치
먼저 Microsoft Store지옥락 뉴토끼 Ubuntu를 설치하십시오 아래 URL로 이동하여 WSL의 Ubuntu 앱의 설치 프로그램을 다운로드하여 실행하십시오
URL :https : //appsmicrosoftcom/det지옥락 뉴토끼l/9pdxgncfsczv? hl = ja-jp & gl = jp & ocid = pdpshare
설치가 시작되면 다음 창이 시작됩니다 잠깐 기다렸다가 화면의 지침을 따르고 사용자 ID와 비밀번호를 입력하여 사용할 수 있도록하십시오 (~$| 입력 상태가 진행 중이면 설치가 성공적입니다)

2지옥락 뉴토끼 설치
설치된 우분투 지옥락 뉴토끼 Docker를 설치하십시오
먼저 우분투지옥락 뉴토끼 APT 패키지를 현대화하고 Docker와 함께 사용할 패키지를 설치하십시오
1 2 3 4 5 |
# 현대화 된 패키지 Sudoapt업데이트 && Sudoapt업그레이드 -y # 지옥락 뉴토끼와 함께 사용되는 패키지 설치 Sudoapt-get installCA-인증서curl |
다음, 지옥락 뉴토끼 GPG 키를 만들고 권한을 설정 한 다음 지옥락 뉴토끼에 저장소를 사용하십시오지옥락 뉴토끼.목록에 추가하십시오
1 2 3 4 5 6 7 8 9 10 |
# 지옥락 뉴토끼 GPG 키에 대한 저장 및 액세스 설정 Sudo설치 -M 0755 -d /etc/apt/키링 Sudocurl -FSSLhttps://다운로드지옥락 뉴토끼com/Linux/Ubuntu/gpg -O /etc/apt/키링/지옥락 뉴토끼ASC SudoCHMOD a+r /etc/apt/키링/지옥락 뉴토끼ASC # 지옥락 뉴토끼 Apt 저장소 추가 지옥락 뉴토끼list echo \ "deb [아치=$(DPKG --인쇄-아키텍처) 서명-by=/etc/apt/키링/지옥락 뉴토끼ASC] https://다운로드지옥락 뉴토끼com/Linux/Ubuntu \ $(. /etc/OS-릴리스 && echo "$ version_codename") 안정적인" | \ Sudo티 /etc/apt/소스listD/지옥락 뉴토끼list /dev/null |
실제로 APT 패키지를 현대화하고 지옥락 뉴토끼를 설치하십시오
1 2 3 4 |
# APT 패키지 업데이트 Sudoapt-get 업데이트 # 지옥락 뉴토끼 Sudoapt-get 설치 -y 지옥락 뉴토끼-CE지옥락 뉴토끼-CE-CliCANTERDio 지옥락 뉴토끼-buildx-플러그인지옥락 뉴토끼-Compose-플러그인 |
마지막으로 지옥락 뉴토끼의 시작 설정 및 사용자 및 그룹을 설정하십시오
1 2 3 4 5 6 7 8 9 |
# 지옥락 뉴토끼 Deomon 구성 SudoSystemCTL활성화지옥락 뉴토끼 SudoSystemCTL활성화CANTERD sudoSystemCTL시작지옥락 뉴토끼 # 지옥락 뉴토끼의 사용자 및 그룹 설정 SudoGroupAdd지옥락 뉴토끼 Sudousermod -AG지옥락 뉴토끼 $ user NewGRP 지옥락 뉴토끼 |
지옥락 뉴토끼 --버전그리고지옥락 뉴토끼Compose버전| 성공적으로 설치되었는지 확인합니다

NVIDIA GPU가있는 PC를 사용하는 경우 NVIDIA 컨테이너 툴킷 (NVIDIA-CTK라고 함)도 설치하십시오
1 2 3 4 5 6 7 8 9 10 11 |
# NVIDIA-CTK 획득을위한 저장소 추가 및 GPG 키 설정 curl -FSSLhttps://nvidiagithubio/Libnvidia-컨테이너/gpgkey | Sudogpg --Dearmor -O /USR/공유/키링/nvidia-컨테이너-툴킷-Keyringgpg \ && curl -S -l https://nvidiagithubio/Libnvidia-컨테이너/안정적인/deb/nvidia-컨테이너-툴킷list | \ sed 's#deb https : //#deb [signed-by =/usr/share/keyrings/nvidia-cont지옥락 뉴토끼ner-toolkit-keyringgpg] https : //#g' | \ SudoTEE /etc/apt/소스listD/nvidia-컨테이너-툴킷list # APT 패키지 업데이트 sudoapt-get 업데이트 # NVIDIA-CTK 설치 Sudoapt-get install -y nvidia-컨테이너-툴킷 |
NVIDIA-CTK 설치가 완료된 후 GPU를 인식하기 위해 지옥락 뉴토끼 컨테이너를 설정하십시오
1 2 3 4 5 |
# 지옥락 뉴토끼 Daemon을 GPU를 인식하게 만드는 설정 Sudonvidia-CTK런타임구성 --런타임=지옥락 뉴토끼 ## RETART 지옥락 뉴토끼 SudoSystemCTL다시 시작지옥락 뉴토끼 |
마지막으로,지옥락 뉴토끼run --RM --런타임=nvidia --gpusallUbuntunvidia-SMIDocker 내지옥락 뉴토끼 호스트의 GPU를 사용할 수 있는지 확인하십시오 다음과 같이 보이면 성공입니다 (NVIDIA-CTK 설치에 실패하거나 NVIDIA GPU가없는 경우 오류가 발생합니다 NVIDIA 이외의 GPU의 경우 각 공급 업체가 제공 한 Docker 런타임 및 드라이버가 필요합니다)

준비가 완료되었습니다
3 로컬 SLM 지옥락 뉴토끼을 빌드
이제 로컬 지옥락 뉴토끼의 작동을 마침내 구축하고 확인해 봅시다
이번에는Ollama를 모델 추론 지옥락 뉴토끼으로 사용하여 구축, 사용자 상호 작용을위한 웹 응용 프로그램으로 webui를 열어할게요 개별적으로 설치하는 방법도 있지만 이번에는 지옥락 뉴토끼의 이점을 최대한 활용하여 지옥락 뉴토끼 Compose에 모두 함께 구축 할 것입니다
말하지만 단계는 매우 간단합니다
먼저 WSL의 Ubuntu 지옥락 뉴토끼 로그인하고 다음 명령을 실행하여 사용자의 홈 디렉토리를 입력Ollama폴더 생성 및 지옥락 뉴토끼 Compose (Compose.yaml)를 작성하십시오
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 |
# 홈 디렉토리지옥락 뉴토끼 Ollama 폴더를 만들고 이동 mkdir -P ~/Ollama CD ~/Ollama # composeyaml 파일 생성 Ollama 폴더 바로 cat <<eof Composeyaml 서비스: Ollama: 이미지: Ollama/Ollama Cont지옥락 뉴토끼ner_name: Ollama 포트: - "11434 : 11434" 볼륨: - ./Ollama:/루트/ollama 배포: 자원: 예약: 장치: - 기능: [gpu] 드라이버: nvidia count: all Open-webui: 이미지: GHCRio/Open-webui/Open-webui:M지옥락 뉴토끼n Cont지옥락 뉴토끼ner_name: Open-webui 포트: - "8080 : 8080" 볼륨: - ./Open-webui:/app/백엔드/데이터 지옥락 뉴토끼: API_URL: http://Ollama:11434 enable_ollama_api: "True" ollama_base_urls: http://Ollama:11434 webui_auth: "false" eof |
다음으로 Ollama 및 Open WebUI 컨테이너를 시작하십시오
1 2 3 |
# Ollama 디렉토리로 이동하여 컨테이너를 시작하십시오 CD ~/Ollama 지옥락 뉴토끼Composeup -d |
컨테이너와 컨테이너 네트워크가 만들어지면 성공합니다 그러나 처음 시작하는 데 약간의 시간이 걸립니다 시작 확인지옥락 뉴토끼로그 -f Open-webui가있는 Open WebUI 컨테이너 로그를보고 다음 로그가 출력이고 입력 대기 상태가 대기 상태에 있으면 시작이 완료됩니다
WebUI가 실행 중인지 확인한 후에는 브라우저 사용http:// localhost : 8080아래의 화면과 비슷한 화면을 보면 괜찮습니다
"OK, 시작하자!"를 클릭 한 후 화면 단추
(이 예지옥락 뉴토끼는 인증 모드가 없지만 사용자 인증을 허용하는 것도 가능합니다)
로컬 SLM 지옥락 뉴토끼 구성이 완료되었습니다 (Docker는 그러한 경우에 정말 유용합니다!)
4 Get Model
다음, 추론 지옥락 뉴토끼 Ollama의 모델을 얻으십시오
이번에는 SLM (Small Language Model)의 Microsoft의 "Phi-4"및 Meta "Llama 3"을 얻으려고 노력할 것입니다 (Ollama 자체는 또한 대규모 언어 모델 (LLM)을 얻을 수 있지만 로컬 PC지옥락 뉴토끼 실행되기 때문에 약 10GB의 SLM을 인수합니다)
모델을 얻으려면 우선지옥락 뉴토끼ComposePS를 실행하여 실행 중인지 확인하십시오 이후,지옥락 뉴토끼ComposeexecOllamaOllama풀 [모델 이름]모델 이름is올라마 도서관 사이트에 나열된 모델을 지정하십시오
1 2 3 4 5 |
# Ollama 컨테이너 상태 확인 지옥락 뉴토끼ComposePS # get model (phi4) 지옥락 뉴토끼ComposeexecOllamaOllama풀PHI4:14B |
이 예지옥락 뉴토끼는 PHI4 : 14B를 얻지 만 SLM의 경우 98GB 크기가있어서 다운로드하는 데 약간의 시간이 걸립니다 (PC의 디스크 공간에도주의를 기울이십시오)
모델이 검색된 후지옥락 뉴토끼Compose다시 시작Open-webui로 열린 webui 컨테이너를 다시 시작하십시오 재부팅이 완료되면 브라우저를 다시 사용하십시오http:// localhost : 8080를 방문하십시오
화면 상단의 풀다운 메뉴에 PHI4 모델 (PHI4 : 14B)이 표시되면 완료되었습니다
디스크 공간이 충분한 경우지옥락 뉴토끼ComposeexecOllamaOllama풀llama3.1:8B지옥락 뉴토끼 llama 31 모델을 다운로드하십시오
아래는 Ollama의 모델 관리지옥락 뉴토끼 일반적으로 사용되는 명령 목록입니다 (이 명령은이 기사지옥락 뉴토끼 소개되었습니다Compose.yaml)
또한 모델을 추가하거나 삭제 한 후지옥락 뉴토끼Compose다시 시작Open-webui로 열린 webui 컨테이너를 다시 시작하십시오
모델 추가 | 지옥락 뉴토끼ComposeexecOllamaOllama풀 [모델 이름] |
삭제 모델 | 지옥락 뉴토끼ComposeexecOllamaOllamarm [모델 이름] |
모델 목록 | 지옥락 뉴토끼ComposeexecOllamaOllamaLS |
(모델 이름이다Ollama Library페이지 참조)
5 작동 확인
마지막으로 작업을 확인합니다 다시 브라우저지옥락 뉴토끼http:// localhost : 8080를 방문하십시오
프롬프트 입력을 위해 텍스트 상자에 질문을 입력하고 제출하십시오 이번에는 "안녕하세요,이 모델의 기능을 간단히 알려주세요"라는 프롬프트를 입력했으며 다음 응답이 생성되었습니다

응답 속도는 이미지로 이해하기 어렵 기 때문에 비디오도 준비했습니다
GPU 성능에 따라 Geforce RTX 4060지옥락 뉴토끼 시도했을 때 응답 시간이 비교적 좋고 실용적이라고 생각했습니다
또한 여러 모델을 다운로드하는 경우 화면 상단의 모델 이름 옆의 "+"버튼을 사용하여 다른 모델을 추가하고 응답 결과를 비교할 수 있습니다

요약
이번에는 Ollama와 Open WebUI를 사용하여 로컬 PC지옥락 뉴토끼 Generation AI를 시험해 볼 수있는 로컬 SLM 환경 (※)을 구축하는 단계를 도입했습니다 이제 우리는 보안에 대해 걱정하지 않고 AI를 활용할 기초가 있습니다
(※ 그러나 편안하게 작동하려면 적절한 PC 사양이 필요합니다 )
이 지옥락 뉴토끼만으로도 유용하지만 Ollama와 Open Webui는 사이트 사용을 촉진하는 훌륭한 기능을 제공합니다 거기다음 번에 우리는이 지옥락 뉴토끼을 개발할 것입니다검색 세대)를 구축하는 방법을 보여 드리고자합니다
rag는 AI가 내부 문서와 같은 로컬 파일의 내용에 따라 응답을 생성 할 수 있도록하여 현장지옥락 뉴토끼 생성 된 AI의 사용을 더욱 촉진 할 수 있도록합니다
이제 "Rag Construction Edition"의 다음 에피소드를 기대하십시오!
저자 프로필

- TDI 디지털 혁신 기술 부서
- 내부 개발 프로젝트 및 클라우드 데이터 활용에 대한 기술 지원에 대한 책임 내가 그것을 알기 전에, 나는 데이터 엔지니어링 및 시스템 재단 건설과 같은 다양한 것들에 머리를 밀고 있었지만 내 모토는 "먼저 시도해보십시오"입니다 최근에, 나는 지역 세대 AI 및 코드 생성 AI와 같은 개발 현장지옥락 뉴토끼 즉시 유용한 Generation AI를 사용하는 데 푹 빠졌습니다 우리는 물건을 더 쉽고 똑똑하게 만들 수있는 세상을 만들기 위해 고군분투하고 있습니다
이 저자의 최신 기사
픽업!2025 년 7 월 15 일뉴토끼 이미지 깨짐 우리는 로컬 SLM/폐쇄 환경에서 작동하는 생성 된 AI를 테스트했습니다 (성능 지표 및 로그하는
픽업!2025 년 5 월 19 일우리는 로컬 SLM/폐쇄 환경지옥락 뉴토끼 작동하는 생성 된 AI를 테스트했습니다 (1) Environment
픽업!2020 년 3 월 27 일나는 범용 메커니즘을 사용하여 센서 데이터를 보이게 만들었습니다 - 2 부
픽업!2020 년 3 월 27 일나는 범용 메커니즘을 사용하여 센서 데이터를 보이게 만들었습니다 - 1 부